Recent lay language generation systems have used Transformer models trained on a parallel corpus to increase health information accessibility. However, the applicability of these models is constrained by the limited size and topical breadth of available corpora. We introduce CELLS, the largest (63k pairs) and broadest-ranging (12 journals) parallel corpus for lay language generation. The abstract and the corresponding lay language summary are written by domain experts, assuring the quality of our dataset. Furthermore, qualitative evaluation of expert-authored plain language summaries has revealed background explanation as a key strategy to increase accessibility. Such explanation is challenging for neural models to generate because it goes beyond simplification by adding content absent from the source. We derive two specialized paired corpora from CELLS to address key challenges in lay language generation: generating background explanations and simplifying the original abstract. We adopt retrieval-augmented models as an intuitive fit for the task of background explanation generation, and show improvements in summary quality and simplicity while maintaining factual correctness. Taken together, this work presents the first comprehensive study of background explanation for lay language generation, paving the path for disseminating scientific knowledge to a broader audience. CELLS is publicly available at: https://github.com/LinguisticAnomalies/pls_retrieval.
translated by 谷歌翻译
In this paper, we identify the best learning scenario to train a team of agents to compete against multiple possible strategies of opposing teams. We evaluate cooperative value-based methods in a mixed cooperative-competitive environment. We restrict ourselves to the case of a symmetric, partially observable, two-team Markov game. We selected three training methods based on the centralised training and decentralised execution (CTDE) paradigm: QMIX, MAVEN and QVMix. For each method, we considered three learning scenarios differentiated by the variety of team policies encountered during training. For our experiments, we modified the StarCraft Multi-Agent Challenge environment to create competitive environments where both teams could learn and compete simultaneously. Our results suggest that training against multiple evolving strategies achieves the best results when, for scoring their performances, teams are faced with several strategies.
translated by 谷歌翻译
深层网络的监督表示学习倾向于过度培养培训课程,而对新课程的概括是一个具有挑战性的问题。经常评估在同一培训课程的固定图像上学习的嵌入。但是,在实际应用中,数据来自新来源,新颖的类可能会出现。我们假设将新颖类的未标记图像以半监督的方式纳入训练,这将有助于与香草监督的表述相比,有效地检索新颖级别的图像。为了以一种综合的方式验证这一假设,我们提出了一种原始的评估方法,该方法可以通过随机或语义上的数据集类别进行分区,即通过对基础和新颖类之间的共享语义进行最小化,从而改变了新颖类的新颖性程度。该评估程序允许盲目训练一台新型级标签,并评估基础或新型阶级检索的冷冻表示。我们发现,香草的监督表现不足,因此在新颖阶级的检索中差不多,因此当语义差距更高时。半监督算法可以部分弥合这一性能差距,但仍然有很大的改进空间。
translated by 谷歌翻译
可变形的注册包括找到两个不同图像之间的最佳密集对应。许多算法已发表,但临床应用难以解决优化问题所需的高计算时间。通过利用GPU计算和学习过程,深入学习超越了这种限制。然而,许多深度学习方法不考虑经典算法尊重的理想性质。在本文中,我们呈现MICS,一种用于医学成像注册的新型深度学习算法。由于注册是一个不良问题,我们将我们的算法集中在不同性质的方面:逆一致性,对称性和方向节约。我们还将我们的算法与多步策略组合以改进和改进变形网格。虽然许多方法向脑MRI应用了登记,但我们探讨了更具挑战性的身体定位:腹部CT。最后,我们在Learn2Reg挑战期间使用的数据集中评估了我们的方法,允许与已发布的方法进行公平比较。
translated by 谷歌翻译
引入了涉及高斯流程(GPS)的模型,以同时处理多个功能数据的多任务学习,聚类和预测。该过程充当了功能数据的基于模型的聚类方法,也是对新任务进行后续预测的学习步骤。该模型是将多任务GPS与常见平均过程的混合物实例化。得出了一种用于处理超参数的优化以及超构件对潜在变量和过程的估计的优化。我们建立了明确的公式,用于将平均过程和潜在聚类变量整合到预测分布中,这是两个方面的不确定性。该分布定义为集群特异性GP预测的混合物,在处理组结构数据时,可以增强性能。该模型处理观察的不规则网格,并提供了关于协方差结构的不同假设,用于在任务之间共享其他信息。聚类和预测任务上的性能将通过各种模拟方案和真实数据集进行评估。总体算法称为magmaclust,可公开作为R包。
translated by 谷歌翻译
视觉定位通过使用查询图像和地图之间的对应分析来解决估计摄像机姿势的挑战。此任务是计算和数据密集型,这在彻底评估各种数据集上的方法攻击挑战。然而,为了进一步进一步前进,我们声称应该在覆盖广域品种的多个数据集上进行稳健的视觉定位算法。为了促进这一点,我们介绍了Kapture,一种新的,灵活,统一的数据格式和工具箱,用于视觉本地化和结构 - 来自运动(SFM)。它可以轻松使用不同的数据集以及有效和可重复使用的数据处理。为了证明这一点,我们提出了一种多功能管道,用于视觉本地化,促进使用不同的本地和全局特征,3D数据(例如深度图),非视觉传感器数据(例如IMU,GPS,WiFi)和各种处理算法。使用多种管道配置,我们在我们的实验中显示出Kapture的巨大功能性。此外,我们在八个公共数据集中评估我们的方法,在那里他们排名第一,并在其中许多上排名第一。为了促进未来的研究,我们在允许BSD许可证下释放本文中使用的代码,模型和本文中使用的所有数据集。 github.com/naver/kapture,github.com/naver/kapture-localization.
translated by 谷歌翻译